Loading...
 

Komunikacja z chatbotem

Największą rewolucją we współczesnej komunikacji stały się kontakty ze światem programów i maszyn, możliwe dzięki wprowadzeniu chatbotów, czyli wirtualnych programów wykonujących czynności kojarzone z działaniami ludzi. Zazwyczaj określa się je mianem "agentów". Są one znacznie bardziej autonomiczne niż programy asystujące, które jedynie towarzyszą ludziom w sieci. Niektóre z tych programów posługują się głosem, chociaż ze względu na ciągle jeszcze niską jakość syntezatorów mowy, aspekt ten nie jest rozpowszechniony. Zadania agentów mają różny charakter – coraz częściej spotykamy boty w oprogramowaniu banków lub bibliotek, gdzie pośredniczą one w pierwszym kontakcie z klientami, kierując ich na właściwe miejsce i przekazując podstawowe informacje. Programy projektują trasy podróży, udzielają konsultacji, przygotowują prognozy pogody, piszą artykuły prasowe, a nawet przeprowadzają rekrutację pracowników. Ciekawe są też przypadki chatbotów wykorzystywanych w psychoterapii. Problem ten stał się obecnie przedmiotem wielu badań [1], [2], [3], [4]. Nie sposób w tym miejscu przedstawić historię wszystkich istotnych chatbotów, toteż przypomnę tylko kilka szczególnie znanych.

W 1966 roku Joseph Weizenbaum, profesor Massachusetts Institute of Technology zaprojektował program noszący nazwę ELIZA. Był to stosunkowo prosty program, który prowadził terapeutyczne rozmowy z ludźmi. Bardzo ważnym aspektem skryptu tego chatbota stała się umiejętność przekształcania frazy wpisanej przez człowieka i odnajdywania w niej słów kluczy, używanych potem w konstruowaniu odpowiedzi. Tak zmodyfikowane i odzwierciedlone treści dawały odbiorcy poczucie zrozumienia jego przekazu. Weizenbaum informował wszystkich o charakterze i ograniczeniach programu. Mimo to, wiele osób rozmawiających z ELIZĄ miało jak najlepszą opinię na temat udzielanej przez nią "pomocy". Rozmówcy czuli się wysłuchani i w tym upatrywali największą wartość swej „terapii”. Co szczególnie interesujące, odbioru ELIZY nie determinowało jej żeńskie imię, gdyż wiele osób odbierało ją jako neutralną postać, a niektóre pacjentki przenosiły na nią nawet postać swojego ojca.

W 1995 roku Richard Wallace rozpoczął pracę nad systemem A.L.I.C.E. (Artificial Linguistic Internet Computer Entity), dla którego ELIZA była inspiracją (https://alicebot.org/(external link)). Wallace doszedł do wniosku, że większość codziennej wymiany zdań opiera się na określonym zestawie bardzo prostych sformułowań, dlatego przygotował początkowo 40 000 wyrażeń, które uznał za reprezentatywne dla podstawowej komunikacji [5]. Taki zasób okazał się wystarczający, by wciągnąć człowieka do rozmowy. Działanie A.L.I.C.E. opiera się nie tylko na odzwierciedleniu, jak w przypadku ELIZY, gdyż nowy chatbot ma również własny repertuar niekonwencjonalnych, a nawet intrygujących fraz. Wprawdzie program ten nie został przeznaczony do terapii, jednak jego błyskotliwe reakcje dają do myślenia i inspirują uczestników rozmowy. Spike Jonze przyznał, że właśnie ten system podsunął mu pomysł nakręcenia filmu "Her" ("Ona") z 2013 roku. Program A.L.I.C.E. ciągle się uczy i trzykrotnie otrzymał Nagrodę Loebnera, przyznawaną chatbotom, które prowadzą rozmowę w najbardziej „ludzki” sposób.

Chatbot Ellie został zaprojektowany przez inżynierów DARPA (Defense Advanced Research Projects Agency), czyli Agencji Zaawansowanych Projektów Badawczych w wyniku badań prowadzonych w 2009 roku w grupie pacjentów ze stresem pourazowym. Wcześniej \( 28\% \) badanych przyznało się do okłamywania pracowników służby zdrowia lub nieinformowania ich o problemach i wydarzeniach, które mogły mieć znaczący wpływ na przebieg ich choroby. Po skutecznych działaniach z weteranami, także w kontekście ich problemów seksualnych, chatbot Ellie został wdrożony do pracy z osobami chorymi na raka. Zadaniem algorytmu jest obserwacja 66 punktów na twarzy pacjenta, które pomagają zidentyfikować mikroekspresje, mogące świadczyć na przykład o stresie albo o kłamstwie. Program zwraca też uwagę na tempo mowy i tembr głosu, reagując stosownie do nich. Dzięki skrupulatnej analizie, jego interakcje są uznawane przez większość pacjentów za wyjątkowo adekwatne względem poruszanych przez nich problemów.

Celem aplikacji Woebot (https://woebothealth.com/(external link)) stało się wspieranie ludzi w depresji, a także innych chorobach psychicznych. Program nie tylko przeprowadza proste rozmowy, które mogą pomóc w pierwszym rozpoznaniu problemów, lecz także na co dzień wykazuje troskę o swoich odbiorców, na przykład pytając o to, jak się czują. Firma deklaruje, że „Ludzie mogą używać Woebota samodzielnie lub w połączeniu z tradycyjną rozmową, lub terapią medyczną, aby uzyskać niezawodne i pełne współczucia wsparcie, dokładnie wtedy, gdy tego najbardziej potrzebują”.

3 sierpnia 2011 roku w teście Turinga wziął udział Cleverbot Rollo Carpentera. W głosowaniu oddano 1334 głosy, z których \( 59,3\% \) uznało jego reakcje za ludzkie. Jak przypomina Aleksandra Przegalińska [6], ludzie uzyskują na ogół w takim teście \( 63,3\% \). 7 czerwca 2014 roku test Turinga zaliczył chatbot Eugene Goostman, symulujący osobowość trzynastolatka z Ukrainy, zaprojektowany przez Władimira Wiesiełowa, Jewgienija Demczenko i Siergieja Ulasena. W tym przypadku ważne znaczenie miało skrupulatne określenie "osobowości" programu, prowadzącego wiarygodne rozmowy z pozycji nastolatka, który nie wie jeszcze wszystkiego i może się mylić. W tym samym roku inny program, nazwany Samantha West i pełniący funkcję telemarketera, spierał się z rozmówcami, zaprzeczając, że jest chatbotem (https://newsroom.cisco.com/feature-content?type=webcontent&articleId=1833794(external link)).

Ludzie zazwyczaj dobrze oceniają komunikację z chatbotami i antropomorfizują je, uznając, że wreszcie znalazł się ktoś skupiony na swoim rozmówcy, słuchający go z uwagą, a nawet empatią, zamiast powszechnych nudy i rozproszenia. Jednocześnie fenomen interakcji z chatbotami pokazuje pewną słabość naszej kultury, w której coraz częściej zapomina się, że komunikowanie polega nie tylko na zrozumiałym przekazie treści, lecz także na relacji wyrażającej się w uważnym słuchaniu. Jak słusznie zauważa Sherry Turkle, tak wysoka ocena chatbotów może budzić również niepokój, ponieważ jedną z jej konsekwencji jest znamienna symetria – personalizując program, depersonalizujemy samych siebie [7].

Zadanie 1:

Treść zadania:
Przeprowadź rozmowę z wybranym chatbotem. Jakie są twoje odczucia?

Bibliografia

1. Przegalińska, A. K.: Istoty wirtualne. Jak fenomenologia zmieniała sztuczną inteligencję?, Universitas, Kraków 2016.
2. Przegalińska-Skierkowska, A.: Konflikt generacyjny wśród botów: między ELIZĄ, Cleverbotem a Tay. [W:] Kuś, V. (Red.), Live’bot, dostęp:07.09.2020
3. Przegalińska, A., Oksanowicz, P.: Sztuczna inteligencja: nieludzka, arcyludzka. Fenomen świata nowych technologii, Wydawnictwo Znak, Kraków 2020.
4. Ptaszek, G.: Edukacja medialna 3.0. Krytyczne rozumienie mediów w dobie Big Data i algorytmizacji, Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2019, dostęp:07.09.2020
5. Aamoth, D.: Interview with Eugene Goostman, the Fake Kid Who Passed the Turing Test, dostęp:15.09.2020
6. Przegalińska-Skierkowska, A.: Konflikt generacyjny wśród botów: między ELIZĄ, Cleverbotem a Tay. [W:] V. Kuś (Red.), Live’bot [s. 11], dostęp:17.09.2020
7. Turkle, S.: Samotni razem. Dlaczego oczekujemy więcej od zdobyczy techniki, a mniej od siebie nawzajem?, przeł. Cierpisz, M., Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2013, s. 212-214.

Ostatnio zmieniona Piątek 23 z Kwiecień, 2021 15:38:33 UTC Autor: Izabela Trzcińska
Zaloguj się/Zarejestruj w OPEN AGH e-podręczniki
Czy masz już hasło?

Hasło powinno mieć przynajmniej 8 znaków, litery i cyfry oraz co najmniej jeden znak specjalny.

Przypominanie hasła

Wprowadź swój adres e-mail, abyśmy mogli przesłać Ci informację o nowym haśle.
Dziękujemy za rejestrację!
Na wskazany w rejestracji adres został wysłany e-mail z linkiem aktywacyjnym.
Wprowadzone hasło/login są błędne.